8 principios básicos para una IA ética en los seguros

Por Chaz Perera 

6 de marzo del 2025 

La industria de los seguros tiene como fundamento la confianza y la seguridad. A medida que la inteligencia artificial (IA), en especial la IA agencial, se integra más a las operaciones de seguros, las empresas deben equilibrar la innovación con la responsabilidad. La IA implementada cuidadosamente puede mejorar la eficiencia, la precisión y el servicio al cliente. 

Sin embargo, las soluciones de la IA deben continuar siendo éticas, seguras y cumplir con los estándares de la industria, superando los requisitos regulatorios para mantener la confianza. 

Adoptar prácticas éticas de la IA va más allá de cumplir con obligaciones legales: significa fomentar una cultura de responsabilidad y rendición de cuentas. 

8 principios básicos para una IA ética en los seguros   

Al integrar estos principios, las aseguradoras pueden utilizar soluciones de la IA que no solo cumplan con las regulaciones, sino que también generen una confianza duradera en los clientes y mejoren la calidad del servicio. 

  1. Compromiso con la transparencia y la rendición de cuentas  
    Las compañías de seguros deben asumir la responsabilidad de los resultados de la IA y hacer que su uso sea transparente y comprensible. Eso significa que los usuarios deben estar dispuestos a entender la manera en que opera la IA, toma decisiones e impacta a los asegurados para así ofrecer claridad y apertura a los clientes. 

Para ser transparentes y rendir cuentas, las aseguradoras deben tener lo siguiente: 

  • Comunicación clara: informar a los clientes acerca de la función que tiene la IA en los procesos como la suscripción, la gestión de las reclamaciones y el mantenimiento de las pólizas.   
  • Documentación: mantener accesible la información acerca del diseño de soluciones y fuentes de información para que los clientes puedan entender claramente la manera en que la información es identificada, clasificada y extraída.   

La comunicación efectiva cumple con los estándares éticos y mejora la experiencia del cliente disminuyendo la confusión y la frustración. 

  1. Garantizar la explicación  
    Las acciones y procesos de la IA deben ser claros y fáciles de explicar. Las aseguradoras deben comunicar la manera en que la IA influencia la toma de decisiones, ayuda a los clientes, entiende como su información es utilizada y la razón por la que ocurren algunos resultados como la aprobación de las reclamaciones o los ajustes de prima. 

La explicación implica:  

  • Ofrecer explicaciones para las decisiones de la IA que utilizan conceptos como el razonamiento a través de una cadena de pensamientos.   
  • Utilizar los niveles de confianza para decidir cuando un proceso es lo suficientemente bueno para ser automatizado (procesamiento directo) y cuando necesita que un ser humano lo revise.   
  • Requerir el rastreo de la fuente material precisa y original.  

La explicación asegura que las decisiones no solo son automatizadas sino también justificables.  

  1. Cuidar la privacidad y seguridad de la información  
    La IA depende de una gran cantidad de información de los clientes para tomar decisiones. La información sensible necesita ser protegida para mantener la confianza y cumplir con las obligaciones legales. 

Las prácticas más importantes incluyen:  

  • Encriptación de la información: la información debe ser encriptada durante el tiempo de descanso y mientras se encuentre en tránsito para evitar el acceso no autorizado y las brechas.  
  • Ocultación de los identificadores personales: la información debe ser anónima o con seudónimo para reducir el riesgo de exposición en una brecha de información.  
  • Controles de acceso: deben establecerse estrictos controles de acceso para garantizar que solo el personal autorizado puede acceder a la información confidencial, y que la IA opera con la protección adecuada para limitar el posible uso indebido.  
  • Consentimiento: las aseguradoras deben obtener el consentimiento de los clientes antes de recolectar o utilizar su información para la IA. 

Las aseguradoras pueden disminuir los riesgos de la IA y promover ambientes seguros para sus clientes.  

  1. Integración de la confiabilidad y seguridad de la IA  
    La IA debe ser consistente y confiable, operando manera correcta y predecible en diversas situaciones del mundo real. Debe funcionar sin fallos ni comportamientos inesperados y no debe provocar daños a través de decisiones incorrectas o vulnerabilidades aprovechables.  

Enfoques para lograrlo:  

  • Supervisión humana: una medida segura, el sistema humanos en el circuito (HITL) integra a los humanos en la toma de decisiones para que las salidas puedan ser revisadas, ajustadas o reemplazadas cuando sea necesario.      
  • Prueba: ejecuta pruebas en diferentes escenarios para garantizar un rendimiento, confiabilidad y precisión consistentes a través de una amplia variedad de condiciones. 
  • Monitoreo constante: monitoreo en tiempo real para identificar y abordar las anomalías, errores y reducción de la precisión (drift) durante el rendimiento del modelo mientras ocurre. 

Estas prácticas ayudan a crear una red segura garantizando que las soluciones de la IA permanezcan efectivas y estables.  

  1. Eliminar los prejuicios y priorizar la equidad y la inclusión  
    La IA debe funcionar de manera equitativa y justa para todos los clientes. Eso significa que debe ofrecer un trato y resultados justos independientemente de las diferencias y circunstancias de la persona.  

Las compañías deben: 

  • Utilizar diferentes formatos de información que reflejen toda la demografía del cliente, los criterios de suscripción y los escenarios de reclamaciones.  
  • Revisar y actualizar regularmente la información de entrenamiento para evitar la manifestación de modelos no actualizados o discriminatorios.  
  • Incluir escenarios no comunes y extractos de información de baja calidad para asegurar el rendimiento confiable en condiciones reales.  

La IA que es entrenada con información representativa produce resultados imparciales para todos los clientes, demostrando un compromiso con la igualdad y la responsabilidad social.   

  1. Pruebas, reproducción, robustez y validación de los modelos  
    La IA debe operar como se espera en condiciones controladas, reproduciendo consistentemente los resultados a través de diferentes ambientes, adaptándose a los cambios inesperados y ofreciendo información nueva y no vista anteriormente.   

Métodos para apoyar esto: 

  • Revisiones regulares del rendimiento de los expertos en la materia para garantizar que los modelos de la IA no se confundan y respondan basándose únicamente en los documentos presentados en los formatos de información del entrenamiento y la evaluación.  
  • Realizar pruebas comparativas de los modelos de la IA con nuevos formatos de información para determinar la tendencia del rendimiento a través de múltiples actividades de la IA, como la extracción y la clasificación. 
  • Establecer ciclos de retroalimentación con expertos en la materia para corregir excepciones, detectar posibles prejuicios y capacitar para procesos actualizados. 

Estos pasos establecen un fundamento sólido para la integridad de la IA, reduciendo de manera proactiva las posibles debilidades y garantizando precisión y equidad.   

  1. Establecimiento del control y cumplimiento de la información 
    Las aseguradoras deben establecer estructuras robustas de control de la información que incluyan: 
  • Comités de control de la IA: formar equipos dedicados a supervisar las iniciativas de la IA, garantizando que se encuentren alineados a los estándares éticos.  
  • Protocolos de privacidad de la información: implementar directrices claras sobre el uso, almacenamiento y el uso compartido de información, y comunicar estas políticas a los clientes. 
  • Cumplimiento de las regulaciones: las aseguradoras deben cumplir con las leyes de protección de la información como el Reglamento General de Protección de la Información (GDPR) o la Ley de Privacidad del Consumidor de California (CCPA), las cuales establecen directrices acerca de la manera que la información del cliente debe ser recopilada, almacenada y procesada.  
  • Auditorias de cumplimiento: llevar a cabo evaluaciones rutinarias para confirmar que la IA cumple con la evolución de los requisitos regulatorios.   

El control de la información importante protege la privacidad del cliente y aumenta la confianza del cliente. 

  1. Promover la colaboración humanos-IA  
    Aunque la IA ofrece capacidades increíbles, la supervisión humana es imprescindible. La IA debe aumentar, no reemplazar, a los expertos humanos. Las decisiones importantes deben depender del juicio humano asegurando que son considerados la empatía y el contexto. 

La integración de los sistemas de humanos en el circuito permite que las aseguradoras: 

  • Monitoreen continuamente las decisiones de la IA  
  • Intervengan en los casos complejos  
  • Mejoren los modelos de la IA a través de la retroalimentación del mundo real  

Esta colaboración motiva el cumplimiento y la confianza, asegurando a los clientes que la IA no funciona sin supervisión. 

Además de los requisitos legales, las aseguradoras pueden posicionarse como líderes éticos, garantizando que la IA beneficie tanto su negocio como sus clientes de una manera segura, justa y responsable. La IA sirve como herramienta para la transformación positiva alineándose con los valores fundamentales de la industria de los seguros. 
 

Fuente: https://www.dig-in.com/opinion/8-core-principles-for-ethical-ai-in-insurance