Puntos clave
- La inteligencia artificial (IA) en seguros evoluciona rápidamente y requiere una definición funcional para futuras regulaciones.
- Es crucial que los aseguradores entiendan el entorno regulatorio global y definan internamente la IA para determinar qué procesos deben estar bajo la gobernanza adicional que la IA requiere.
- Al colaborar y considerar todos los aspectos de esta revolución tecnológica, los aseguradores pueden dar pasos positivos tanto en la definición de la IA como en el futuro de los seguros.
La IA se define como máquinas que realizan tareas típicamente humanas. Sin embargo, las regulaciones requieren una definición legal más clara, una que pueda responder la pregunta: "¿qué es y qué no es IA?"
El 24 de septiembre de 2024, la Oficina Federal de Seguros del Departamento del Tesoro de EE. UU. celebró una mesa redonda en Washington, DC, sobre la "IA en el sector de los seguros". Participaron líderes de seguros y reguladores; yo, por mi parte, representé a RGA en esta discusión y confirmé los desafíos que enfrentan los reguladores en este tema. Sin embargo, también dejé la conferencia esperanzado de que, al trabajar juntos, podamos llegar a una definición de IA, así como de las reglas asociadas que beneficien a los intereses de la industria.
Definiciones técnicas de la IA
La IA encuentra sus orígenes en el ámbito académico (en las matemáticas y en la tecnología). Sus primeras definiciones reflejan este origen; por ejemplo, John McCarthy, quien acuñó el término en 1955, la definió como ‘la ciencia de crear máquinas inteligentes’.
Merriam Webster amplió esta definición como "la capacidad de los sistemas informáticos o algoritmos de imitar el comportamiento humano inteligente".
Estas primeras definiciones hicieron hincapié en el término "inteligencia humana", ya que la mayoría de los programas informáticos son inherentemente no inteligentes. Los programas son simplemente un conjunto de pasos que una computadora sigue de manera rígida y no inteligente, como un sistema de suscripción que identifica rápidamente los casos por aceptar o rechazar según reglas predefinidas.
Sin embargo, cuando los programas aparentemente no inteligentes se vuelven complejos y pueden aprender de los datos y adaptarse a ellos, surgen sistemas similares a la IA. Esta capacidad de aprender es uno de los pilares fundamentales para definir la IA.
Una definición amplia de la IA podría incluir, por lo tanto, muchos modelos actuariales que han existido durante décadas. Los sistemas que aprenden de solicitudes humanas para suscribir riesgos con base en miles de suscripciones humanas, podrían clasificarse más precisamente como IA.
Las definiciones técnicas modernas van mucho más allá. Por ejemplo, el Instituto Nacional de Estándares y Tecnología (NIST) define la IA como:
- Una rama de la informática dedicada al desarrollo de sistemas de procesamiento de datos que realizan funciones normalmente asociadas con la inteligencia humana, como razonamiento, aprendizaje y automejoramiento.
- La capacidad de un dispositivo para realizar funciones que normalmente se asocian con la inteligencia humana, como razonamiento, aprendizaje y automejoramiento.
Estas definiciones incorporan capacidades adicionales que tradicionalmente se consideraban características exclusivamente humanas, como el razonamiento y el automejoramiento. Estas facultades permiten a las máquinas realizar tareas más allá del seguimiento de reglas predefinidas para aprender de los datos, de manera similar a como los humanos aprenden de su entorno.
En este contexto, definir "razonamiento" probablemente será un tema de debate durante los próximos años. El razonamiento similar al humano se introdujo con GPT-01 Strawberry y es un tema en boga en la investigación sobre IA. Desafortunadamente, al no contar con definiciones concretas sobre conceptos como razonamiento y conciencia dificulta definir cuándo una máquina los alcanza. De hecho, no todos los filósofos y científicos están de acuerdo en que los humanos mismos hayan alcanzado estas habilidades.
¿Cómo deberían los aseguradores definir la IA?
Los reguladores definen la IA desde una perspectiva distinta a la técnica:
Propósito: Para los expertos técnicos, el propósito de definir la IA es avanzar en la comprensión y desarrollo de esta tecnología. Para los reguladores, el propósito es crear marcos que garanticen el uso seguro y ético de las tecnologías de IA.
Enfoque: Las definiciones técnicas destacan tecnologías como el aprendizaje automático y las redes neuronales. En contraste, las definiciones regulatorias se centran en el impacto social y la gobernanza de los sistemas de IA.
Alcance: Las definiciones técnicas suelen incluir rasgos y metodologías específicas utilizadas en el desarrollo de la IA. Las definiciones regulatorias son más amplias y abarcan los posibles riesgos y consideraciones éticas asociadas con la IA.
Los aseguradores no pueden depender de una definición regulatoria única para todos los casos. Incluso dentro de un solo país, las definiciones variables de la IA hacen que sea impráctico para un asegurador adoptar simplemente una de estas definiciones. Si el asegurador es una entidad global, el número de definiciones regulatorias aumenta.
Es importante que los aseguradores no sólo tengan en cuenta el entorno regulatorio global, sino que también desarrollen su propia definición de IA para determinar qué procesos deben estar sujetos a la gobernanza adicional que requiere esta tecnología.
Afortunadamente, la mayoría de los aseguradores tienen un largo historial en la gobernanza de sistemas y modelos como los actuariales para precios, valoración y evaluación de riesgos. Al igual que con estos modelos, los aseguradores deben considerar los siguientes aspectos de gobernanza al definir la IA:
- Materialidad: ¿La falla del modelo resultaría en una pérdida financiera o reputacional significativa para el asegurador?
- Intervención humana: ¿Las decisiones de la IA están sujetas a revisión y aprobación humana? ¿En qué grado es autónomo el modelo?
- Ramificaciones legales: ¿Existen ramificaciones legales derivadas de la decisión del modelo?
- Aprendizaje de datos: ¿La lógica del modelo fue diseñada o aprendida por la computadora mediante datos?
- Impacto humano de las decisiones: ¿Las decisiones del modelo afectarán las decisiones importantes de los clientes humanos?
- También es importante incluir las definiciones técnicas. Porque si únicamente consideramos los criterios de gobernanza anteriores, los modelos actuariales utilizados durante décadas podrían ser considerados sistemas de IA. Este criterio los sometería a una supervisión adicional y, en algunos casos, innecesaria.
Por ejemplo, considere un programa simple que aplica la Ley Nacional de la Edad Mínima para Beber de EE. UU. de 1984:
SI edad >= 21 ENTONCES servir alcohol SINO rechazar servir bebida alcohólica
El programa toma decisiones importantes para los clientes, con claras ramificaciones legales. Además, esta regla podría ser aprendida observando datos de bares y discotecas. Sin embargo, este programa no es IA, sino una regla simple usada en sistemas de suscripción.
La IA en seguros evoluciona rápidamente, por lo que requiere una definición operativa para futuras regulaciones. Me enorgullece haber acompañado a colegas de la industria de todo el país para ayudar a los reguladores a abordar este desafío. Colaborar en esta revolución tecnológica permitirá avanzar en la definición de la IA y el futuro de los seguros. Espero continuar con este esfuerzo.