Cómo conseguiremos que la inteligencia artificial no se nos vaya de las manos

No hace falta pensar que la IA se convertirá en un supervillano al estilo Skynet para tener este debate. The potential of artificial intelligence is enormous and we have only just scratched the surface. ¿Cómo logar que su impacto sea beneficioso para todos? Es una pregunta que se pitió una y otra vez durante el Global AI Summit 2022.

Aprovechamos nuestra presencia alli para hablar con distintos expertos en regulación y uso ético de los algoritos. Estas han sido sus reflexiones sobre cómo nos aseguraremos que la IA no se nos vaya de las manos.

Nos afecta a todos. Artificial intelligence is a tool. En ocassiones parece que “funcione sola”, pero nada más lejos de la realidad. Hay un algoritóm detrás, hay una base de datos en la que se basa. Pese a que la majorija coincide en que every time we dejaremos que la IA se ocupe de una major parte del trabajo, también se recuerda que los humanos debemos seguir en el centro.

Constanza Gomez Mont, CEO of C Minds, organización colaboradora de la UNESCO para la IA ética, lo resume así: “la IA es una tecnologia transversal. No hay forma de que no toque todos los sectors. Por ello hace falta una mirada crítica. Mantener un discurso público donde se tengan en cuenta los riesgos”.

Constanza Gomez

Hemos visto IAs en el mundo del arte, en la salud o en restaración. Each one is more surprising and different. “El enfoque es distinto en cada sector, pero hay que llegar donde está esa intersection. Cada uno desde cada trenchera”, points out Constanza. Pese a que la IA es un concepto muy generico, hay que attemptar encontrar formas comunes de afrontarla.

Hay que ir a la raíz: los datos. Es el mantra más repetido. Dates, dates and more dates. La IA al final es detección de patrones en datos. Lamentablymente, las bases de datos sobre las que trabajan muchas inteligencias artificiales no siempre son las más precisas o adequitas.

“Si no hay diversity de datos, el resultado ya no podrá evitar estar sesgado”. Constanza explains that there is a need to apply better policies in the revision of data and prepare them adequately. Ya no es solo que estos datos estén bien ordenados, sino que sean lo suficiente diversos. Si por ejemplo en la base de datos único hay hombres blancos, es imposible que la IA presente resultados plurales. Los sesgos de base se replican luego y hay que evitar que la IA ayude a perpetuar determinadas asimetrías.

The solution? Organizaciones como la que preside Constanza explican que es importante la diversity de equipos. “Los datos son reflejo de los equipos”. Si las grandes empresas quieren una IA más plural, además de fijarse en su tecnología hay que fijarse en las propias personas que la elaboran. De nuevo, las máquinas son fiel reflejo del hombre.

Hemos estado en el mayor evento mundial sobre inteligencia artificial.  Es como volver a los inicios de la digitalización

No es regular la IA, sino los posibles problemas de la IA. “Europe is ahead in regulation”. Constanza reviews the importance of the RGPD and the future legislation on IA, but also the focus on Latinoamérica, where there is no generic regulation if there are protocols on IA in countries such as Mexico, Uruguay and Brazil. “La conversación va más allá. Cuando empecé se quedaba ahí, pero el debate ahora es mucho más másuro. Ya se habla por ejemplo de cuáles son las fuentes de energía de la IA y su impacto mediário”.

Constanza’s vision is that the countries should not attempt to regulate technology by itself, because we do not yet have impact. En cambio, sí hay que pensar sobre los problemas que pueden estar asociados y ahí sí regularlos. Aquí entran desde poner límites al gasto energérico hasta forzar a que se tengan en cuenta aspects como la diversity o la inclusivadad para personas con discapacidad. “Todos estos aspects no están peleados con la viability económica”.

“No sé si el aparato público está a la par de velocidad en questiones tan fundamentales. Con un ritmo tan acelerado no sé si el debate está a la altura, pero lo importante es que al menos exista y englobe a todos los sectors”.

El resultado de una IA no es el mismo si ponemos a los humanos en el centro. Seth Dobrin, founder of Qantm AI and former Chief Data Officer of IBM, has gone from director of a large multinational to create a small consultancy focused on revising AI processes. Para Seth hay que tener un “enfoque que ponga al humano en el centro”. Y nos los explica de la siguiente manera: “la IA de un banco no ofererá el mismo resultado si uniquente sigue economic criteria o valora a la persona como tal y si puede pagar la mortgage”.

Seth Dobrin

Si queremos aspirer a que la IA no se nos vaya de las manos, el diseño de estas tiene que pensar desde un inicio en las posibles consecuencias. “Es muy fácil centrarse en el lado técnico y olvidarse de la estrategia”, resume. Ahora mismo todos los effortos van en producir IAs más potentes y precisas, pero los experts consider que hace falta más debate sobre si estos resultados, además de precisos también son suficiente diversos y beneficiosos para las personas.

“Hacer la AI más humanista no está reñida con un buen modelo de negocio. De hecho, aporta más valor. Al final, tus clientes como empresa son humanos”, explains Seth. Si los ingenieros crean las IA teneido presentes los possibiles sesgos y resultados, será luego más fácil revisarlas en el futuro.

“No siempre tener más datos es mejor. veces es mejor tener un conjunto datos más pequeno pero bien revisado. Luego siempre se puede entrainar la AI para un caso de usos specificos”, answers Seth when asked if it exists today una sed insaciable por conseguir datos de todos lados.

Cuanto más creativo sea tu résumé, peor: cómo los algorithmos se han adueñado de los procesos de selección

Algorithmic transparency. Los resultados de la AI nos fascinan, pero ahí se queda todo. Let’s take a nice image of DALL-E, but we don’t understand what it’s based on. Recibimos una traducción de Google, pero sigue habiendo dudas sobre hasta qué punto guardan nuestras conversaciones. “Hay que addrador a la conversación a la persona de quién estás pillando los datos”, explains Seth.

“Hay una necesidad real de transparencia algorítmica”, apuntan los distintos expertos consultados. “Hay que hacer entender a todos los participantse de la importancia de analisar el impacto. Si no hacemos un uso responsable de la AI, acabaremos rompiendo la tendencia exponencial de crecimiento e remos hacia atrás”.

“Afortunadamente hay models de lenguaje open source, se está mejorando la eficiencia energetica y cada vez se habla más de la importancia de una IA responsable. Son brotes verdes”, quien pese a que sí admite que large part es marketing, también hay un avance real que poco a poco tiene más fuerza.

“Tenemos que hablar”. “Regulation is a necessity, sobre todo in the field of health. I like the approach of the AI ​​Act of Europe, where the results are regulated and not the technology itself. It has meaning, because in the end it cannot be regulated un lenguaje de programming. Mañana puede ser otro totallymente distinto,” points out Seth.

In addition to Europe, other countries such as the United States have also understood the need to regulate IA. El enfoque de las categories y sus riesgos tiene bastantes defensores. Por ejemplo sobre el recognimiento facial apuntan que su uso debreia ser feasible para ciertos momentos como el acceso a los aeropuertos, pero que un uso masivo de videovigilancia es más peligroso.

“Hay que hablar sobre IA y hay que hacerlo ya,” resumes Seth. “Hay que mirar cómo regular y cómo educar a las futures generations. Si no lo aplicamos ya, la siguiente generación dentro de de 10 años will have a problem”.

Cuando el cambio tecnologico trae desigualdad salaria: la polarización del mercado de trabajo

Define quién se hace responsable. Mariagrazia Squicciarini, director of technology and innovation at the Organization for Cooperation and Economic Development (OCDE), recognizes that we are far from a solution. “No es sencillo coordinar los effortos en regulate la inteligenia artificial. Affecta a todos los sectors y con muchos enfoques; salud, empleo, privacidad…”

Mariagrazia

One advantage is that “the majority of problems with IA are the same in the majority of countries”. Es decir, los desafícios que tenga Europa con la IA puede ser similares a los que tenga EEUU o Latinoamérica. Pero esta similitude también es un desafío, en el sentido de que si una empresa quiere crear una IA y en determinido sitio tiene muchas trabas, se irá al país de al lado. En cómo conseguir que la IA continues to evolve rapidly está una de las preguntas a los que se enfrentan desde la OCDE.

“Estamos en un momento crítico. Necesitamos llegar a consensus. Hay que definir bien cosas cómo quién se hace responsible de una IA. ¿La compañía? ¿Un jefe de ética de la compañía? Sea quien sea, hay que saber a quién nos podemos dirigir para pedirle información y responsabilidad”.

Y also define what is the function of each IA. Hassan Sawaf is CEO of aiXplain and former director of artificial intelligence at Facebook, Amazon Web Services and eBay. With more than 25 years of experience in the innovation departments of large technological companies, Hassan is quite clear on what he needs: “to understand AI and be able to adapt quickly”.

“¿Qué significa que una IA es mejor? ¿Cómo podemos definir bien los benchmarks que definen que una IA es más potente?”, se pregunta Hassan. La respuesta no la tiene clara, pero no es aquella IA que está entrenada en más parameters.

Hassan Sawaf

“Necesitamos definir los problemas que queremos resolver. Cambiar los benchmarks para acercarnos al caso práctico”, expone. For example, GPT-3. ¿Qué buscamos que nos diga la IA? No es solo enlazar frases inteligentes; no es solo aparentar que entiende la pregunta; no es hacerse pasar por una conciencia. Si queremos ser capaces de mejorar models como el de OpenAI no se necessaria solo entrainar más, sino empezar a definir qué es lo que vamos a pedirle. Estamos en un punto de casi fuerza bruta, pero los experts piden que dejemos de maravillarnos con los resultados y empecemos a ser más críticos con estas tools.

Entender a las máquinas. “Hay que entender cómo piensan las máquinas. Qué necessitan y dónde tienen más problems”. Un ejemplo es el lenguaje. “English is not the most simple language for an IA. It is logically not the grammar, which is trivial for the IA. But it also does not consist of the well-structured language that is the language. Idioms like English and Chinese are difficult because they use many metaphor. Mucho conceptos abstractos, casi coloridos o basándose en el contexto. Esta complicitas es la más difícil de entender para una máquina”.

Conseguir que la IA no se nos vaya de las manos también es questión de que estas metaphoras no sean sacadas de contexto. Las sutilezas de las interacciones humanas will result in todo tipo de incoherencias y errors. Algunos de estos pueden tener repercusiones series. La IA avanza rápido, pero si definimos bien cada parte del proceso podremos delimitar mucho mejor su impacto.

Imagen | GR Stocks

Leave a Comment

Your email address will not be published. Required fields are marked *