in

Por qué necesitamos una IA que se explique por sí misma

GettyImages 1354126692 0c9c6744f57b4f9b8b18a9220d568074
  • Las empresas utilizan cada vez más la IA que explica cómo obtiene resultados.
  • LinkedIn aumentó recientemente sus ingresos por suscripciones después de usar IA que predijo los clientes en riesgo de cancelar y describió cómo llegó a sus conclusiones.
  • La Comisión Federal de Comercio ha dicho que la IA que no es explicable podría investigarse.

Yuichiro Chino / Getty Images



Una de las nuevas tendencias más populares en software podría ser la inteligencia artificial (IA), que explica cómo logra sus resultados.


La IA explicable está dando sus frutos a medida que las empresas de software intentan hacer que la IA sea más comprensible. LinkedIn aumentó recientemente sus ingresos por suscripciones después de usar IA que predijo los clientes en riesgo de cancelar y describió cómo llegó a sus conclusiones.


«La IA explicable se trata de poder confiar en el resultado y comprender cómo llegó allí la máquina», dijo a Lifewire Travis Nixon, director ejecutivo de SynerAI y jefe de ciencia de datos, servicios financieros de Microsoft, en una entrevista por correo electrónico.


«‘¿Cómo?’ es una pregunta que se les plantea a muchos sistemas de IA, especialmente cuando se toman decisiones o se producen resultados que no son los ideales», agregó Nixon. «Desde tratar injustamente a diferentes razas hasta confundir una cabeza calva con una pelota de fútbol, ​​necesitamos saber por qué los sistemas de IA producen sus resultados. Una vez que entendemos el ‘cómo’, posiciona a las empresas y a las personas para responder ‘¿qué sigue?'».



Conociendo la IA

La IA ha demostrado ser precisa y hace muchos tipos de predicciones. Pero AI a menudo puede explicar cómo llegó a sus conclusiones.


Y los reguladores se están dando cuenta del problema de la explicabilidad de la IA. La Comisión Federal de Comercio ha dicho que la IA que no es explicable podría investigarse. La UE está considerando la aprobación de la Ley de Inteligencia Artificial, que incluye requisitos para que los usuarios puedan interpretar las predicciones de la IA.



Linkedin se encuentra entre las empresas que creen que la IA explicable puede ayudar a aumentar las ganancias. Antes, los vendedores de LinkedIn confiaban en su conocimiento y pasaban una gran cantidad de tiempo revisando datos fuera de línea para identificar qué cuentas tenían probabilidades de continuar haciendo negocios y qué productos podrían interesarles durante la próxima renovación del contrato. Para resolver el problema, LinkedIn inició un programa llamado CrystalCandle que detecta tendencias y ayuda a los vendedores.


En otro ejemplo, Nixon dijo que durante la creación de un modelo de establecimiento de cuotas para la fuerza de ventas de una empresa, su empresa pudo incorporar IA explicable para identificar qué características apuntaban a una nueva contratación de ventas exitosa.


«Con este resultado, la gerencia de esta empresa pudo reconocer qué vendedores poner en la ‘vía rápida’ y cuáles necesitaban capacitación, todo antes de que surgieran problemas importantes», agregó.



Muchos usos para la IA explicable

La IA explicable se está utilizando actualmente como un control intuitivo para la mayoría de los científicos de datos, dijo Nixon. Los investigadores ejecutan su modelo a través de métodos simples, se aseguran de que no haya nada completamente fuera de servicio y luego envían el modelo.


«Esto se debe en parte a que muchas organizaciones de ciencia de datos han optimizado sus sistemas en torno al ‘tiempo sobre el valor’ como KPI, lo que lleva a procesos apresurados y modelos incompletos», agregó Nixon.


«Me preocupa que el retroceso de los modelos irresponsables pueda hacer retroceder a la industria de la IA de una manera grave».

Las personas a menudo no están convencidas por los resultados que la IA no puede explicar. Raj Gupta, director de ingeniería de Cogito, dijo en un correo electrónico que su empresa encuestó a los clientes y descubrió que casi la mitad de los consumidores (43 %) tendría una percepción más positiva de una empresa y de la IA si las empresas fueran más explícitas sobre su uso. de la tecnología


Y no son solo los datos financieros los que reciben ayuda de la IA explicable. Un área que se está beneficiando del nuevo enfoque son los datos de imágenes, donde es fácil indicar qué partes de una imagen cree el algoritmo que son esenciales y donde es fácil para un ser humano saber si esa información tiene sentido, Samantha Kleinberg, profesora asociada de Stevens. Institute of Technology y experto en IA explicable, le dijo a Lifewire por correo electrónico.


«Es mucho más difícil hacer eso con un electrocardiograma o con datos continuos de un monitor de glucosa», agregó Kleinberg.


Nixon predijo que la IA explicable sería la base de todos los sistemas de IA en el futuro. Y sin una IA explicable, los resultados podrían ser nefastos, dijo.


«Espero que progresemos en este frente lo suficiente como para dar por sentada la IA explicable en los próximos años y que miremos hacia atrás en ese momento hoy sorprendidos de que alguien esté lo suficientemente loco como para implementar modelos que no entendieron», agregó. «Si no nos enfrentamos al futuro de esta manera, me preocupa que el retroceso de los modelos irresponsables pueda hacer retroceder a la industria de la IA de una manera grave».

What do you think?

Deja una respuesta

Tu dirección de correo electrónico no será publicada.

aquasnap 1

El sencillo organizador de escritorio le ahorra tiempo y energía

tabs sz

El truco de navegación te ayuda a encontrar lo que necesitas rápidamente