¿cómo alcanzar la igualdad real?

In 2013, the tax agency of the Netherlands had an idea. ¿Por qué no disejar un sistema de inteligenia artificial (IA) que ayudase a detecter posibles casos de fraude fiscal?

Poco a poco, las sospechas se convirtieron en multas. Thousands of Dutch families have committed notificaciones y sanciones por delitos que no habían compote. The algorithm los había señalado y nadie en la autoridad fiscal pensó que podía estar equivocándose, que el resultado podría estar sesgado. Tras varios años de litigio, quedó demonstrated that the tax agency had violated privacy laws when installing this system. Y que la IA desarrollada no era inclusiva ni atendía a los principios de igualdad.

Por el camino, claro, el algorithmo ruined the life of thousands of people. Las investigations que llegaron más tarde demonstrated that the automatic learning system took decisions from partir de a series of risk factors que habian sido decididos por la autoridad fiscal del país. Entre otros, estaban el tener doble nacionalidad, ser extranjero y pertenecer a una familia de bajos ingresoes. Es decir, sisgos. ¿Podrían haberse evitado?

Guía para una IA inclusiva

El caso neerlandés no es único. According to the Global Future Council on Artificial Intelligence for Humanity, from the World Economic Forum (FEM), the lack of inclusivity in the development and governance of AI has generated perjuicios to companies (both financial damage and reputation) multiple groups and communities. As ethnic, cultural, linguistic and ideological minorities. Para intentar evitarlo, el FEM has published su guide para la igualdad y la inclusioni en el desarrollo y la gobernanza de la IA.

El documento,’A Blueprint for Equity and Inclusion in AI‘, identifica siete pasos fundamentales en el ciclo de vida de estos sistemas y señala a series of good practices, tanto desde el point de vista de la gobernanza como el de desarrollo. En muchos casos, both approaches are superponen.

1. Identificación del caso de uso o el problema

At the time of identifying the case of use or the problem that can be solved with IA, the governance ecosystem must, among other things, define the topic from different points of view and ensure that el equipo de desarrolladores que va affrontarse al problema es lo más diverso posible. Por su parte, el ecosistema de desarrollo debe hacer un análisis de mercado amplio y sesura de que el modelo de desarrollo va a recibir inputs of all social and ethnic groups. Habrá que prestar especial atención a aquellos que suelen estar infrarrepresentados.

2. Diseño del modelo

El desarrollo del modelo debe empezar con una reflection profunda alredero de las siguientes preguntas: por qué y para quién es necesario. Tanto desde la gobernanza como desde el desarrollo deben identifyerse las necesidades de los datos que van alimentar el modelo de IA. Y tenerse en cuenta las opiniones y los puntos de vista de todos los groups interesados ​​y afectados por el producto final.

3. Collection of data

En esta tercera fase, es necesario identificar rutas para una recopilación de datos más inclusiva, con un marco de gobernanza solid y designed from respect to privacy. For this reason, it is necessary to ensure that the bases of data used are inclusive and represent equitably to all demographic groups.

4. Desarrollo del modelo y phase de pruebas

Aunque sean dos pasos diferentes, las fases de desarrollo y testeo se retroalimentan de forma continua. So, the good practices defined in the FEM guide can be carried out in both processes.

From the point of view of governance, it is necessary to establish varias rondas de desarrollo y testeo con diferentes enfoquesmonitor the impact of AI in different communities and determine the inclusive metrics that will measure the success and failure of the product.

En cuanto al equipo de desarrollo, este debe tener en cuenta una serie de principios éticos, de transparency y de respeto a la privacidad. Además, los testeos se hárán de forma controlled, en grupos de prueba que representen a todas las comunidades sociales y étnicos.

5. Display and monitoring

Al igual que en el caso anterior, both phases are closely related. Una vez desarrollada la IA, su despliegue comercial debe ser accompanied by a very close monitoring to identify possible unexpected negative impacts. Deben ponerse en práctica systems of rendition of effective accounts, así como tools to detect the appearance of harmful consequences or new affected groups that had not been taken into account in the beginning.

“Habitualmente, la inclusion llega tarde a los procesos de diseño e implementación de nuevas capacitas digitales. ¿El resultado? El trabajo es directed by a small and privileged group y el resto queda al margen de los beneficios. This guide provides tools to counter the tendencies in the IA field. Si se actua en consecuencia, podríamos encaminarnos hacia una sociedad más inclusive en general”, concluded Nadjia Yousif, directora general y socia de Boston Consulting Group, one of the groups participating in the FEM report.

Por Juan F. Samaniego

Images | Unsplash/Miles Peacock, Possessed Photography, Mark Stosberg

Leave a Comment

Your email address will not be published. Required fields are marked *