Icono del sitio Asesores Financieros – Efpa

Estrecha de miras, subjetiva, indiferente y voraz: cuatro problemas de la IA

IA

Todo el que me lee con asiduidad y/o me conoce sabe que personalmente soy un fervoroso seguidor y observador de las tendencias tecnológicas disruptivas aplicadas al mundo de las finanzas. Pero también que el asombro junto al estudio y el pensamiento crítico siempre me obligan a divulgar, no solo el vino y las rosas del tema, sino aquellos aspectos menos agradables de estos avances, como la IA. A continuación comparto un artículo que también publiqué en Citiwire y que pone el foco en uno de los temas destacados del próximo EFPA Congress.

El caso de la Inteligencia Artificial (IA) -tan poco dotada de autocrítica o de ser auditada con pensamiento crítico- no iba a ser la excepción, así que ahí van una serie de aspectos que afean el fulgor y el exagerado hiper posibilismo del fenómeno de moda. Que me disculpen los devotos del asunto, pero hay que hablar de ello. En primer lugar, no hay que dejarse engañar: la IA no es infalible o es tan falible como los datos de los que se nutre. La inteligencia artificial se “alimenta” de datos, y su dieta, por definición, no puede ser equilibrada.

Antes de seguir leyendo, si quieres explorar conmigo cómo la inteligencia artificial (IA) está revolucionando el sector financiero, metiéndonos de lleno en su implementación, no te pierdas esta masterclass que he impartido en formato pódcast de la mano de ‘Al día en finanzas’, el pódcast de EFPA España. ¡Seguimos!

Inducción, no deducción

La recopilación de información es una selección a priori, es decir, algunos hechos se incluyen en la base de datos, mientras que otros se ignoran. Por lo tanto, la IA, por definición, piensa de forma inductiva, no deductiva, es decir, saca una conclusión general basada en muchos casos especiales. A veces erróneo.

En 2016, Richard Lee, de 22 años, quiso obtener un nuevo pasaporte rellenando un formulario y subiendo una foto al sitio web del Ministerio del Interior. El sitio arrojó un error: “Los ojos de la persona en la foto están cerrados” y rechazó la solicitud de Lee. Por supuesto, tenía los ojos abiertos. El joven tenía una apariencia asiática, incluida una estrecha hendidura en los ojos, que la máquina no pudo reconocer (y esto sucedió en el 20% de esos casos, como se comprobó más tarde), porque estaba acostumbrado a la apariencia del tipo europeo, que tienen la mayoría de los habitantes del país.

Las bases de datos para el aprendizaje automático a veces son de baja calidad o están rotas. En 2016, Twitter lanzó un chatbot llamado Tay con el avatar y los gestos de una mujer estadounidense de 19 años para comunicarse con los internautas. En solo 24 horas, al chatbot se le enseñó algo malo. Tay se convirtió en racista y sexista, y también pidió la construcción de un muro en la frontera de Estados Unidos y México a expensas de este último.

Una realidad particular, no la realidad

Pero incluso si los primeros interlocutores de Tay fueran miembros de la Academia Sueca de Ciencias, seguiría siendo un personaje limitado, ya que extraía información y patrones de comportamiento de sus interlocutores. Como diría un miembro de la Academia Sueca de Ciencias, la inteligencia artificial no es capaz de sacar conclusiones claras e interpretadas positivistas sobre la realidad objetiva. En cambio, crea su propia realidad, que sirve de base para conclusiones limitadas.

Otro problema con una base de datos de entrenamiento de IA es trabajar con el pasado. Las bases de datos se basan en datos históricos, por lo que la inteligencia artificial está casi condenada a errores de extrapolación. En pocas palabras, la IA es una buena historiadora, pero mala pronosticadora.

IA, buena historiadora, mala pronosticadora

Caso de estudio: 2020, USA., en instituciones médicas y compañías de seguros, un algoritmo especial de IA encuentra pacientes con enfermedades crónicas que necesitan atención especial del personal de enfermería más que otros. Sin embargo, resulta que la IA encuentra pacientes negros con menos frecuencia que los blancos. El algoritmo analiza los costes de atención médica de los pacientes sin distinguir entre negros y blancos. Pero en la práctica, los costos de los pacientes negros más enfermos son iguales a los de los pacientes blancos más sanos. Los primeros tuvieron que gastar más debido a la mala salud (consecuencia de un bajo nivel de vida), mientras que los segundos pudieron gastar más debido a los altos ingresos. Es decir, los pacientes negros seguían necesitando la atención de los médicos con más frecuencia que los pacientes blancos, pero la IA no lo entendía.

El problema de la extrapolación puede ser resuelto mediante gemelos digitales de los sistemas y fenómenos en estudio. Por ejemplo, en 2018, Toshiba creó un gemelo digital para la concurrida ruta Londres-Cambridge del ferrocarril británico Greater Anglia. El transportista necesitaba un nuevo horario que tuviera en cuenta todos los picos y valles de la carga en la ruta. Por lo general, se tomaban datos históricos para esto, pero esta vez los trabajadores ferroviarios decidieron confiar en la información de un gemelo digital. En él, los trabajadores ferroviarios probaron los cambios en los horarios y buscaron formas de mejorar la puntualidad, todo de una manera que no perjudicara a los pasajeros reales si las decisiones tomadas resultaban ineficaces.

Por qué la IA es banal e incomprensible al mismo tiempo

Además de la “nutrición” inadecuada de la IA, también hay dificultades, de hecho, con la “digestión”: la inteligencia artificial no es similar a la inteligencia humana ni en términos de capacidades ni de mecanismos de funcionamiento. A menudo se establecen paralelismos entre la inteligencia artificial y el cerebro humano. Pero incluso las redes neuronales más poderosas con miles de millones de nodos equivalen a solo un milímetro cúbico de tejido cerebral. Cuando decimos que la IA “piensa”, “entiende” o “aprende”, obtenemos analogías muy aproximadas.

El segundo problema con la IA es que el aprendizaje automático no funciona de la misma manera que el cerebro humano, por lo que es fácil de engañar, pero a veces imposible de entender. El ejemplo más llamativo es la tecnología de reconocimiento de imágenes. La IA reconoce un conjunto de valores de píxeles que suelen indicar la presencia de un rostro en una imagen. En sentido estricto, la IA no “reconoce” ni “reconoce” un rostro como fenómeno. Por lo tanto, es fácil engañarlo.

IA, entre el entendimiento y la confusión

En 2013, los investigadores de Google crearon imágenes con las mismas imágenes, pero con colores alterados de píxeles individuales. En el caso de los humanos, eran idénticos, pero la red neuronal confundía un panda con un gibón y un perezoso con un coche de carreras. Los científicos también crearon imágenes completamente abstractas para humanos, que la red neuronal reconoció como un pingüino rey y una raya.

Todavía no existe una solución fundamental para este problema, pero hay varias opciones. La primera es ampliar la base de aprendizaje y corregir errores, siempre y cuando sepamos dónde se equivocará la IA. La segunda es conseguir que dos IA entrenen a un amigo: una reconoce los errores y la otra intenta confundir a la primera. Sin embargo, la práctica ha demostrado que los estudiantes de IA son mejores para reconocer los errores esperados y peores para reconocer los inesperados. Una tercera forma es enseñar a la IA representaciones fundamentales (espacio, tiempo, etc.), pero aún no está claro cómo vincularlas a un conjunto específico de píxeles.

El problema de la caja negra

Si bien la IA es fácil de engañar, a veces es difícil de entender. Cuanto más complejo es el aprendizaje automático, más difícil es para un creador de IA rastrear la cadena lógica a través de la cual los datos de entrada viajan a través de millones de neuronas hasta las salidas. A esto se le llama el problema de la caja negra.

En 2015, las clínicas y hospitales estadounidenses introdujeron Deep Patient AI que fue entrenado para predecir enfermedades, incluido el cáncer, en los registros médicos de 700.000 pacientes. Entre otras cosas, Deep Patient era muy bueno en la predicción del desarrollo de enfermedades mentales, como la esquizofrenia. Aunque esto siempre ha sido una tarea difícil para los propios médicos. Al mismo tiempo, ni los médicos ni los creadores de IA han sido capaces de averiguar qué signos utilizó Deep Patient para identificar con precisión a los futuros esquizofrénicos. La cuestión de la legalidad del tratamiento basado en un diagnóstico que se obtuvo misteriosamente sigue abierta.

Padres e hijos: por qué la IA necesita humanitarios y conciencia

El tercer problema de la IA es que estos sistemas llevan inevitablemente la impronta del pensamiento y los valores de sus creadores.

En particular, los programadores de IA suelen ser “técnicos”, pero no son fuertes en sociología, psicología, historia, derecho o ciencias políticas, mientras que se espera que la IA resuelva problemas sociales. Por ejemplo, la IA crea puntos ciegos, como en el ejemplo antes mencionado de los pacientes negros que fueron ignorados por la inteligencia artificial. El algoritmo no tuvo en cuenta la desigualdad histórica en el nivel de riqueza entre blancos y personas de color.

¿Qué pasa cuando no se comprende el contexto?

Los programadores pueden ignorarlas, y la propia inteligencia artificial no sufre el síndrome de Oppenheimer-Sájarov (el sentimiento de culpa ante la humanidad de los padres de las bombas atómica y de hidrógeno, respectivamente). Por ejemplo, en 2019, un grupo de científicos escribió una carta a la editorial Wiley pidiéndoles que eliminaran un artículo en el que los autores hablaban de las pruebas de un sistema de reconocimiento facial de IA para uigures en China. Según la ONU, este grupo étnico y religioso es sistemáticamente oprimido por las autoridades chinas. Los algoritmos de IA han distinguido con éxito los rostros de los uigures de los coreanos y tibetanos. Los autores de la carta condenaron a los científicos que trabajaron en el artículo y, de hecho, a los algoritmos de IA.

Cuestiones éticas sobre la ética

Surgió la pregunta: ¿qué tan ético es utilizar bases de datos a gran escala de imágenes de personas que no dieron su consentimiento para ello y pueden ser privadas de sus derechos? La revista Nature realizó una encuesta entre científicos que trabajan con inteligencia artificial. Solo el 47% de los científicos de China consideraron que el uso de imágenes faciales no era ético, mientras que en Estados Unidos y Europa dichos especialistas eran más del 73%.

En el sector comercial, las cuestiones éticas también preocupan a los desarrolladores de IA. En 2018, Google se negó a cooperar con el Pentágono en el Proyecto Maven en medio de las protestas de los empleados. Los desarrolladores creyeron que sus algoritmos podrían usarse para armas letales y exigieron que la gerencia abandonara el contrato con el ejército, lo que se hizo. Una semana después, la compañía publicó un manifiesto con pautas éticas para trabajar con inteligencia artificial. En la actualidad hay unos 90 documentos de este tipo que guían a los programadores de IA en diversas empresas e instituciones de todo el mundo. Sin embargo, el Pentágono anunció más tarde una convocatoria para trabajar en su Centro de Investigación de IA entre los trabajadores de Silicon Valley y encontró a los especialistas adecuados.

Ni conciencia ni ética

La inteligencia artificial no tiene conciencia ni ética. Los clientes de la IA son los gobiernos y las grandes corporaciones, y si no están tramando nada bueno, no se lo contarán a nadie. El último defensor involuntario del bien es el programador, lo suficientemente consciente como para decir “No”.

Pero incluso aquellos que dicen “No” se guían por sus propias actitudes éticas y culturales. Por ejemplo, el 70% de los solicitantes de trabajos relacionados con la IA en Estados Unidos son blancos, mientras que solo el 14% son negros o hispanos. En Alemania, las estudiantes representan solo el 20% del número total de estudiantes de primer año de informática. No es difícil adivinar que la inteligencia artificial, por definición, se convierte en el hijo de sus padres blancos de los países desarrollados.

Mechanical Turk: por qué la IA se basa en el trabajo manual y daña el medio ambiente

A primera vista, la inteligencia artificial es un producto intangible. De hecho, y este es el cuarto problema, detrás del éxito de la IA hay millones de trabajadores informáticos. Cientos de toneladas métricas de dióxido de carbono. Para entrenar a una IA, necesita ser “alimentada” con datos, que no siempre se pueden recopilar automáticamente. A menudo, estas bases se forman mediante el trabajo manual. Además, cuanto más complejo y “sofisticado” sea el objetivo de aprendizaje, más información de alta calidad se necesita, pero la pregunta es: ¿de dónde viene?

Los desarrolladores de IA realizan pedidos para recopilar o procesar diversos datos en plataformas de crowdsourcing en la red (Amazon Mechanical Turk, Clickworkers, etc.). Miembros de la plataforma de todo el mundo están de acuerdo o lo rechazan. Por ejemplo, la plataforma Clickworker ofrece los servicios de 3 millones de personas de diferentes países (principalmente Norteamérica y Europa) que crean datos de formación, buscan y recopilan fotos, grabaciones de audio y vídeo, anotan y atribuyen textos, filtran correos electrónicos, etc.

Inteligencia Artificial… y precarizada

Es decir, de hecho, parte de la tecnología de inteligencia artificial es mano de obra y, por desgracia, no muy bien remunerada. Según el PeW Research Center, el 52% de los clickers estadounidenses ganan menos de 5 dólares. por hora, que es inferior al salario mínimo estadounidense de 7,25 dólares por hora, y otro 39% está entre 5 y 8 dólares por hora. por hora.

La inteligencia artificial es costosa no solo en términos de recursos humanos, sino también en términos de recursos naturales, lo que afecta directamente a su huella de carbono. Según investigadores de Berkeley y Google, GPT-3, el modelo de lenguaje más potente y avanzado del mundo produce el equivalente a 555 toneladas métricas de dióxido de carbono durante el entrenamiento. Durante el año se asigna el mismo número de coches con motor de combustión interna. El chatbot avanzado de Google, Meena, produjo 96 toneladas métricas de dióxido de carbono mientras leía 340 GB de textos, la misma cantidad de dióxido de carbono producida por 17 hogares.

En resumen: ¿cuáles de los siguientes problemas de IA son fundamentalmente irresolubles?

Sin embargo, otros obstáculos para el desarrollo de la IA pueden eliminarse e incluso eliminarse por completo: ampliando la base del aprendizaje, luchando por la transparencia de los algoritmos de IA, ampliando la alfabetización humanitaria de los desarrolladores y convirtiendo los sistemas de IA en fuentes de energía renovables.

4.7/5 - (3 votos)
Salir de la versión móvil