Consideraciones Clave
- El papel de la IA generativa en el sector asegurador no hará más que crecer, y las aseguradoras deben adoptar prácticas sostenibles desde hoy para prepararse para la industria del mañana.
- Cinco formas de reducir la huella de carbono de la IA incluyen: optimización de la infraestructura de IA, eficiencia en el uso de datos, optimización de modelos, capacitación de usuarios y gobernanza.
- Un enfoque integral basado en el ciclo de vida de la IA, que incorpore la sostenibilidad en cada aplicación, puede ayudar a las aseguradoras a alinear la eficiencia operativa con sus objetivos de sostenibilidad.
La inteligencia artificial generativa (IA generativa o GenAI) ofrece numerosas ventajas, al mejorar la productividad y agilizar las operaciones. Sin embargo, a medida que su adopción aumenta, resulta fundamental abordar su impacto ambiental.
Este artículo, una colaboración entre RGA y AWS, destaca cinco áreas clave para minimizar la huella de carbono de la IA generativa. Desde los usuarios individuales hasta los líderes organizacionales, todos tienen un papel en garantizar el uso sostenible de esta poderosa tecnología.
1. Optimización de la infraestructura de IA
Uno de los pasos más directos para reducir el impacto ambiental de la IA es seleccionar una infraestructura energéticamente eficiente. Migrar las cargas de trabajo de IA generativa a un proveedor de nube a hiperescala se ha convertido en una opción cada vez más popular. AWS, por ejemplo, opera centros de datos diseñados para lograr una alta eficiencia, con sistemas de enfriamiento avanzados, hardware personalizado (como los procesadores Graviton y aceleradores de IA como Trainium e Inferentia), además de innovaciones arquitectónicas que minimizan la pérdida de energía. Consolidar recursos a gran escala permite distribuir los costos operativos entre múltiples usuarios, generando beneficios tanto económicos como ambientales.
Muchos proveedores de nube están comprometidos activamente con alcanzar emisiones netas cero. AWS, como parte del compromiso climático de Amazon (The Climate Pledge), alcanzó su objetivo de operar con 100 % de energía renovable en 2023, siete años antes de su meta inicial establecida para 2030. Amazon planea alcanzar la neutralidad de carbono para 2040.
Desde la perspectiva de una aseguradora, elegir una región o centro de datos con un alto porcentaje de energía renovable puede reducir significativamente la huella de carbono de las cargas de trabajo de IA. Además, como los servicios en la nube son elásticos, las aseguradoras pueden escalar hacia arriba o hacia abajo según la demanda, en lugar de mantener servidores locales en funcionamiento constante que consumen energía innecesariamente.
Además, los servicios gestionados como Amazon Bedrock pueden simplificar la implementación y optimización de modelos de lenguaje de gran escala (LLM). Al encargarse de los ajustes de infraestructura, estos servicios permiten que las aseguradoras ya no tengan que configurar el hardware por su cuenta, evitando errores comunes como la sobreasignación de recursos. Esto no solo mejora el rendimiento y la confiabilidad, sino que también reduce el consumo de energía.
2. Eficiencia en el uso de datos
El rendimiento de la IA depende de la calidad de los datos, aunque más datos no siempre se traducen en mejores resultados. Para las aseguradoras, centrarse en la curación, limpieza y anotación de datos suele ser más efectivo que simplemente alimentar los modelos con grandes volúmenes de información sin procesar. Los datos de alta calidad permiten que los modelos aprendan patrones más rápidamente, lo que reduce la cantidad de ciclos de entrenamiento necesarios y, por tanto, el consumo de energía.
Dado que las aseguradoras manejan grandes volúmenes de datos de clientes —desde la suscripción hasta la gestión de reclamaciones—, la inversión en preparar adecuadamente los datos desde el inicio puede traducirse en importantes ahorros de recursos y mejoras en la precisión.
3. Consideraciones técnicas y optimización de modelos
Las aseguradoras utilizan IA para tareas que van desde la evaluación de reclamaciones hasta la detección de fraudes. Aunque los modelos de IA de propósito general, de gran tamaño, son versátiles, también pueden ser excesivamente demandantes en términos de consumo energético. En cambio, los modelos más pequeños o específicos para tareas concretas pueden ofrecer una precisión comparable con un consumo de energía mucho menor. Ya sea utilizando modelos ajustados para mayor confiabilidad o versiones simplificadas para evaluaciones de riesgo en tiempo real, operar con algoritmos más livianos permite alcanzar tanto los objetivos de rendimiento como los de sostenibilidad.
Otra medida práctica es la gestión de la “memoria conversacional”. Por ejemplo, si un modelo se utiliza para un chatbot de atención a clientes, una ventana de contexto demasiado amplia implica que el sistema debe procesar cada nueva consulta tomando en cuenta un extenso historial de mensajes previos. Esto no solo requiere procesar más tokens, sino que también incrementa el tiempo de inferencia y el consumo energético. Limitar las ventanas de contexto, o comenzar desde cero con cada nueva tarea, reduce esta carga y puede mejorar la calidad de las respuestas.En tareas que no requieren procesamiento en tiempo real —como la generación de resúmenes a partir de grandes volúmenes de documentos—, suele ser más eficiente trabajar en bloques sin mantener memoria conversacional. Conservar un historial de mensajes por cada fragmento de datos puede llenar rápidamente los buffers de contexto y disminuir la precisión. De manera similar, el uso de almacenamiento temporal de prompts (prompt caching), aunque aún está en desarrollo, muestra potencial para reducir cálculos redundantes.
Al reutilizar estados ya procesados para prompts comunes, las aseguradoras pueden reducir tanto el consumo de energía como el tiempo necesario para gestionar consultas repetidas, lo cual es especialmente relevante cuando múltiples agentes o aplicaciones dependen de instrucciones similares.
La cuantización es otra herramienta útil. Al reducir la precisión numérica de los pesos de un modelo —pasando de 32 bits a enteros de 8 bits—, la cuantización disminuye el tamaño general del modelo y reduce el tiempo y la energía necesarios para ejecutar cada consulta. En tareas donde no se requiere una precisión absoluta, este equilibrio puede generar importantes ahorros energéticos con una pérdida mínima de exactitud.
4. Capacitación de usuarios
El comportamiento del usuario influye significativamente en la huella energética de los sistemas de IA. En chatbots utilizados para la gestión de reclamaciones, por ejemplo, los empleados y asegurados que cambian frecuentemente de tema dentro de una misma sesión pueden, sin querer, ampliar en exceso la ventana de contexto. Capacitar a los usuarios para que abran una nueva sesión de chat para cada consulta distinta permite mantener bajos los recuentos de tokens y reducir los tiempos de inferencia. Esto se traduce en un ahorro considerable de recursos para aseguradoras con enfoque en la eficiencia de costos, y además suele generar respuestas del modelo más precisas y relevantes.
5. Monitoreo y gobernanza
Una gobernanza efectiva de la IA comienza con la transparencia en el uso de recursos. Rastrear el consumo de tokens, establecer presupuestos por departamento e identificar picos de uso permite a las aseguradoras detectar ineficiencias y ajustar sus estrategias en consecuencia. Herramientas de proveedores como AWS ayudan a asignar costos a equipos específicos o líneas de negocio, brindando una visibilidad valiosa sobre quién está utilizando la IA, cuánto cuesta y si existen oportunidades para optimizar el gasto.
Además, medir las emisiones de carbono asociadas a las cargas de trabajo de IA es clave para los informes más amplios de ESG (ambientales, sociales y de gobernanza). Servicios como AWS Customer Carbon Footprint Tool permiten visualizar cómo las decisiones de infraestructura se traducen en impacto ambiental real, proporcionando a las aseguradoras la información necesaria para implementar mejoras sostenibles basadas en evidencia.
Más allá del modelo: Eficiencia holística
A medida que la IA generativa (GenAI) gana terreno en el sector asegurador, las consideraciones de sostenibilidad deben integrarse en cada etapa del proceso. Al adoptar servicios en la nube energéticamente eficientes, optimizar los flujos de datos, dimensionar adecuadamente los modelos y capacitar a los equipos en el uso responsable de la IA, las aseguradoras pueden ofrecer soluciones de vanguardia sin incrementar desproporcionadamente el consumo energético. Igualmente importante es contar con un sólido marco de gobernanza que permita monitorear el uso, los costos y las emisiones de carbono, garantizando así el cumplimiento de los compromisos ambientales sin comprometer la seguridad de los datos de los clientes.
Un enfoque integral, basado en el ciclo de vida de la IA, ayuda a las aseguradoras a alinear la eficiencia operativa con los objetivos de sostenibilidad. Desde la recopilación inicial de datos y la selección de modelos, hasta el retiro o reemplazo de sistemas obsoletos, cada fase representa una oportunidad para reducir residuos, minimizar emisiones y responder a las crecientes expectativas regulatorias y de los grupos de interés. Con una planificación y ejecución cuidadosas, la GenAI puede convertirse en un motor poderoso de innovación, al tiempo que refuerza el compromiso del sector asegurador con un futuro más sostenible.
¿Quieres saber más sobre la experiencia de RGA en inteligencia artificial y cómo nuestros conocimientos pueden beneficiar a tu organización? Hablemos.