La inteligencia artificial no es un camino de rosas

La inteligencia artificial no es un camino de rosas

La inteligencia artificial lleva entre nosotros más de 50 años, pero no ha sido hasta hace unos pocos cuando, con la mejora de la capacidad de almacenamiento y computación de los ordenadores, está siendo aplicable en la práctica.

Una de las ramas de la inteligencia artificial más populares en la actualidad, y la que más está proliferando, es el aprendizaje automático. 

Su principal característica es el uso de conjuntos de datos de los cuales sus algoritmos aprenden mediante un proceso denominado “entrenamiento”. Un ejemplo de uso del aprendizaje automático, publicado en The Lancet, es un experimento donde los investigadores entrenaron un algoritmo con radiografías de pacientes sanos y enfermos de cáncer, y probaron que el algoritmo era capaz de predecir la enfermedad con una mayor precisión que los radiólogos que participaron en el estudio.

No obstante, los datos son un arma de doble filo. Por una parte, el aprendizaje de los mismos es el que hace a los algoritmos “inteligentes” pero, por otra parte, pueden hacer que los algoritmos presenten sesgos. Supongamos la creación de un agente conversacional artificial (o chatbot) capaz de hablar sobre temáticas generales. Los datos necesarios para entrenar su algoritmo son millones de conversaciones entre personas humanas, las cuales son normalmente extraídas de internet.

Numerosos intentos de creación de chatbots han resultado racistas, homófobos, xenófobos, machistas y han terminado generando un discurso de odio. Aunque hay quien acusa a los algoritmos de estar sesgados, ¿hasta qué punto podemos culparlos a ellos si aprendieron de lo que vieron?

Los primeros signos que los algoritmos presentaron atentando contra la diversidad o los grupos minoritarios tomaron a sus creadores por sorpresa, e incluso dañaron la imagen corporativa. Este es el caso de Google cuando en 2015 su aplicación Photos confundió afroamericanos con gorilas. Para evitar estos sesgos inconscientes, se están empezando a definir una serie de políticas que establecen qué es éticamente correcto y qué no. Con estas directrices éticas, los ingenieros definen métricas para detectar posibles sesgos, prestan especial atención a los datos con los que sus productos son entrenados, eligen cuidadosamente el algoritmo más adecuado y validan su comportamiento tras el entrenamiento.

Otro de los problemas que dificulta la adopción de la inteligencia artificial viene de la mano de la falta de transparencia. Volviendo al caso médico anterior, dada una radiografía el algoritmo es capaz de decirnos cuál es la probabilidad de que el paciente tenga cáncer, pero no es capaz de decirnos qué lo ha llevado a ese diagnóstico. Otro ejemplo con repercusión mediática es el software COMPAS, usado en EE UU para predecir la reincidencia de criminales, el cual solo arroja una probabilidad, pero no la fundamenta.

Esta falta de transparencia no es intencionada, sino que viene dada por la naturaleza de los algoritmos. Muchos de ellos reducen el problema a complejos cálculos matemáticos, donde es prácticamente inviable conocer el significado de sus cálculos intermedios (es decir, el porqué) y donde únicamente es posible interpretar el resultado final.

Aunque esta limitación puede resultar irrelevante en ocasiones (por ejemplo, no es crucial conocer la razón por la cual una tienda on-line sugiere un producto), es crítica en sistemas que influyen en la toma de decisiones en áreas como la medicina o el sistema judicial, donde una decisión equivocada o desinformada tiene importantes consecuencias.

Actualmente, hay muchas iniciativas de investigación cuyo objetivo es proporcionar técnicas para la extracción de información de estos algoritmos de tipo caja negra (opacos para el usuario), y la creación de algoritmos nuevos que, siendo igual de efectivos, arrojen más claridad sobre sus resultados.

A pesar de las ventajas, inconvenientes y retos de la inteligencia artificial, es innegable que ha llegado para quedarse. En comparación con ciencias como las matemáticas o la física, la ingeniería informática es un área relativamente nueva y, en general, no regulada. No obstante, al igual que hace unos años se empezó a velar por la protección de datos (lo cual dio lugar a la ley europea GDPR), ahora están empezando a aparecer iniciativas tanto a nivelcorporativo (p.ej. Google y Microsoft) como gubernamental (p.ej. Comisión Europea) para velar por el cumplimiento de la transparencia y los principios éticos. Y, sin lugar a duda, esto es solo el principio de lo que está por venir

Fuente: https://elpais.com/tecnologia

Compartir en