En un mundo cada vez más moldeado por la inteligencia artificial (IA), la llamada por una IA responsable cobra una importancia crítica. La reciente presentación en el Festival Mundial de IA en Cannes por destacadas figuras del sector, como Uri Tintore y Scott Zoldi, subraya esta urgencia. La gobernanza en la IA no es solo una cuestión técnica, sino una necesidad ética y pragmática para asegurar que la tecnología avance de manera que beneficie a la sociedad en su conjunto sin comprometer la transparencia, la equidad o la privacidad. Al tiempo que las capacidades de la IA generativa (GenAI) despiertan tanto entusiasmo como preocupación, es fundamental adoptar un marco de IA responsable que no solo fomente la innovación y el crecimiento económico, sino que también proteja los valores fundamentales de nuestra sociedad. La experiencia y el enfoque de FICO en este campo ofrecen un claro ejemplo de cómo la gobernanza de la IA puede y debe ser estructurada para cultivar un futuro tecnológico que sea tanto prometedor como principista.
Scott Zoldi, director de analítica (CAO) de FICO
Recientemente asistí al Festival Mundial de IA en Cannes (WAICF, por sus siglas en inglés) en Cannes, Francia, donde escuché llamados urgentes por establecer una gobernanza a la inteligencia artificial generativa (GenAI, por sus siglas en inglés). Los científicos de datos clamaban por gobernar la tecnología de manera mucho más eficaz, con transparencia y protecciones. Observé también una exuberancia irracional por la GenAI, con presentadores que aseguraban que ésta generará billones de dólares al año en productividad global.
Mientras el debate se llevaba a cabo, pude compartir la fuerza del enfoque pragmático y controlado de FICO en torno a la implementación de la IA. Me enorgullece que FICO asuma con tanta seriedad la aplicación de la inteligencia artificial y del machine learning (ML) a través de un enfoque estructurado en la gobernanza de la IA responsable que enfatiza el ML interpretable, la IA ética, la palatabilidad, la IA auditable y la responsabilidad.
“¡Los modelos lingüístico grandes (LLM) no sirven para nada!”
El primer día del evento, el vicepresidente y científico en jefe de IA en Meta, Yann LeCun, presentó la conferencia “Objective-Driven AI: towards AI systems that can learn, remember, reason, and plan” (La IA orientada a objetivos: hacia sistemas de IA capaces de aprender, recordar, razonar y planear), donde ofreció una perspectiva técnica sumamente informada sobre porqué, en sus palabras, “¡Los modelo lingüístico grandes (LLM) no sirven para nada!” (Ni tampoco el aprendizaje automático, desde su punto de vista). Su perspectiva no sorprende, ya que a diario escuchamos acerca de los fracasos épicos de la GenAI, tales como chatbots de LLM que alucinan sobre la justicia o las políticas de reembolso de tarifas aéreas, o generadores de imágenes que ilustran claramente lo peor en estereotipos raciales. Estoy viendo surgir una contracultura. LeCun resumió su visión negativa sobre los LLMs en:
- El aprendizaje supervisado (AS) requiere grandes números de muestras etiquetadas.
- El aprendizaje de refuerzo (AR) requiere cantidades descabelladas de pruebas.
- El aprendizaje autosupervisado (AA) funciona muy bien, pero la predicción generativa solo funciona para texto y otras modalidades discretas… [lo que conduce a]
- Los LLM tienen conocimientos limitados de la realidad subyacente; no tienen sentido común ni memoria ni pueden planear su respuesta.
LeCun continuó su presentación describiendo una arquitectura de IA orientada a objetivos que puede “aprender, razonar [y] planear, pero que es segura y controlable”, lo que abre un camino mucho más gobernable “hacia una inteligencia de máquina autónoma”.
Sentado entre el público, me alegró escuchar a otro científico de datos reconocer las limitaciones y los riesgos de la tecnología de IA y GenAI. Estoy totalmente de acuerdo con la conclusión de LeCun: si no respetamos estas limitaciones, arriesgamos lastimarnos a nosotros mismos o a nuestras aplicaciones, y los adelantos necesarios en GenAI podrían enlentecerse, restringirse o incluso prohibirse.
Exuberancia irracional a escala
En el lado opuesto del espectro, Nayur Khan, de la práctica QuantumBlack AI de McKinsey, pintó el futuro de la GenAI de color rosa. Presentó un argumento estadísticamente completo de que la GenAI puede generar 4.4 billones de dólares en productividad global anual y ayudar a las organizaciones a lograr una ventaja competitiva. Las estadísticas que compartió fueron:
- El doble de menciones de IA en las llamadas de ganancias del S&P 500, lo que indica un alza en interés y/o implementaciones.
- Un incremento de más del 400% en inversión VC global en la IA generativa.
- La posibilidad de automatizar del 60% al 70% del trabajo de los empleados.
Un artículo del New York Times ahonda aún más en el elemento de la automatización y cita un informe reciente del McKinsey Global Institute:
La mitad de todo el trabajo se automatizará entre 2030 y 2060, afirma el informe.
McKinsey ya había predicho que la IA automatizaría la mitad de todo el trabajo entre 2035 y 2075, pero la potencia de las herramientas de la IA generativa, las cuales incursionaron en el escenario tecnológico el año pasado, aceleraron la predicción de la compañía.
“La IA generativa tiene el potencial de cambiar la anatomía del trabajo al aumentar las capacidades de los trabajadores mediante la automatización de sus actividades individuales”, dice el informe.
Sin embargo, la presentación de Khan incluyó una importante nota al pie: menos del 10% de las compañías pueden generar un impacto de IA a escala. Pienso que esta es una cifra en la que hay que enfocarse, y, ciertamente, es el problema que debe resolverse. Considero que la oposición inevitable contra la IA, por su percibida “incapacidad de ofrecer valor empresarial” es el impacto hacia el cual se dirige la actual exuberancia irracional. Pero esto, de hecho, es una cuestión relacionada con las personas, no un problema tecnológico.
FICO ha logrado excelentes resultados con la IA responsable
Aunque la mayoría de las presentaciones en WAICF se centraron en la IA generativa, la sesión encabezada por FICO, “Using blockchain, Responsible AI and open banking to expand credit access” (Utilizar el blockchain, la IA responsable y la banca abierta para ampliar el acceso al crédito), exploró una aplicación operada bajo los principios de la IA responsable y disponible para mejorar las decisiones de crédito en Brasil. Presenté junto con Uri Tintore, fundador y copresidente de nuestro socio Belvo, y cubrimos lo siguiente:
- La situación de Open Finance en Brasil y la disponibilidad de datos.
- La necesidad de una IA responsable que sea robusta, explicable, ética y auditable.
- La necesidad de un machine learning interpretable para abordar la “caja negra” del ML para incrementar la transparencia y la responsabilidad.
- El uso del blockchain en el desarrollo de modelos de IA para asegurar la auditabilidad.
Uri explicó en detalle cómo utilizar los datos de Open Finance requiere un procesamiento profundo y un enriquecimiento de datos complejos y porqué Belvo eligió a FICO para desarrollar y operativizar los modelos de machine learning de la IA responsable para conocer mejor el comportamiento financiero de los clientes y mejorar los resultados futuros a través de los datos enriquecidos. Luego, describí cómo la estrategia de FICO expande la inclusión financiera a través de un machine learning interpretable para abordar la “caja negra del ML”. La Figura 1 presenta una versión simplificada de ese proceso.
Figura 1. Belvo utiliza la tecnología de desarrollo de perfiles transaccionales de FICO para obtener una perspectiva contextual del comportamiento financiero del cliente y emplea el machine learning interpretable para producir un puntaje (score) de Open Finance que pueda mejorar la inclusividad financiera en Brasil.
Todo el desarrollo y operación de Belvo Open Finance Score, impulsado por FICO, se codifica de manera inmutable en un modelo de IA con gobernanza de blockchain. El blockchain asegura que los modelos de machine learning y las relaciones en los datos que impulsan esos modelos sean explicables y justificables, lo que constituye la base de una gobernanza exitosa de la IA. Asimismo, la codificación permite implementar técnicas avanzadas como el análisis transaccional y el machine learning interpretable para utilizar esos datos del cliente para mejorar los resultados.
El poder del análisis transaccional: 6 veces más préstamos con 3 veces menos pérdidas
Para demostrar el potencial de Belvo Open Finance Score compartimos un escenario “antes” a manera de un caso de estudio de un proveedor de servicios financieros de Brasil. Esta institución tenía una tasa de rechazo de crédito muy alta (~84%) y una tasa de impago del 20% en los préstamos aprobados, lo que indicaba una buena oportunidad para mejorar los resultados de negocios.
Con la puntuación de Open Finance presentamos una estrategia sencilla para extender crédito al 20% de las solicitudes rechazadas con la puntuación más alta y rechazar el 50% de las autorizaciones con la puntuación más baja, lo que se traduciría en una tasa de impago de sólo el 6% pero en un acceso a crédito mucho mayor. ¿El resultado? Seis veces más préstamos con tasas de pérdidas tres veces más bajas, lo que proporcionaría una oportunidad capaz de cambiarle la vida a la población sin servicios financieros en Brasil.
Figura 2. Belvo Open Finance Score, impulsado por FICO, permite que 6 veces más solicitantes de crédito reciban préstamos, con un riesgo de pérdida 3 veces menor para el banco.
De eso se trata la IA responsable
FICO piensa que es sumamente importante no poner en peligro la oportunidad de mejorar los futuros financieros ya sea por aplicar de forma descuidada una IA no interpretable o por utilizar de manera irresponsable la IA, el ML y los datos que pueden impulsar el cambio. Esto requiere disciplina y dedicar tiempo y cuidado a implementar una estructura de gobernanza de la IA responsable.
Para funcionar exitosamente a largo plazo y hacer frente al escrutinio regulativo, una estrategia de gobernanza de la IA debe aplicar los constructos de la IA auditable, tales como blockchain de gobernanza de la IA, para cumplir con esas normas de la IA responsable.