Por Elizabeth Blosfield | 21 de marzo del 2025
Según panelistas del simposio 2025 PLUS D&O de la ciudad de Nueva York, la tecnología de la inteligencia artificial continúa evolucionando y está afectando muchas áreas del seguro desde las reclamaciones y la suscripción hasta el servicio al cliente.
Pero, ¿se ha desarrollado tanto la tecnología que podría reemplazar la suscripción humana en los próximos cinco años?
«Pienso que es la pregunta más importante que existe», expresó Jeffrey Chivers, director ejecutivo y cofundador de Syllo, un espacio de trabajo de litigios impulsado por la inteligencia artificial que permite a los abogados y asistentes legales utilizar modelos de lenguaje a lo largo del ciclo de vida de los litigios.
Él afirmó que otra manera de hacer esta pregunta es si la inteligencia artificial puede desarrollar el juicio no solo para la suscripción sino a través de todas las áreas de negocios donde el juicio es una parte importante del trabajo.
«¿Existe algún cambio aquí relacionado a la capacidad de un modelo para ejercer el tipo de juicio de valor matizado y otros tipos de juicios que se incluyen en un trabajo de misión crítica?», preguntó. «Hasta ahora, la respuesta para mí ha sido no», expresó. «Si la respuesta es sí en algún momento de los próximos cinco años, creo que eso es lo que lo cambia todo».
Claire Davey, jefe de innovación de productos en Relm Insurance expresó que están ocurriendo grandes cambios en otras áreas de seguro que implican más tareas administrativas, sin embargo, “eso depende de la manera en que la organización desea desplegar y utilizar la inteligencia artificial. “Pero pienso que muchos trabajos, especialmente aquellos que son administrativos, se encuentran en riesgo de ser muy cambiados por la tecnología de la inteligencia artificial. Será un cambio histórico en el comercio nunca visto en una generación, y el seguro no es diferente.”
Dicho esto, ella acordó que los trabajos de suscripción están seguros, por ahora.
«Uno de los controles y deberes claves de la gobernanza con la tecnología de la inteligencia artificial es que requiere supervisión humana, por tanto, aunque la inteligencia artificial podría realizar algunas etapas de la suscripción se espera que todavía haya un humano revisando sus resultados y verificándolos», afirmó.
Juicio de suscripción de la inteligencia artificial
Los panelistas acordaron que la tecnología de la inteligencia artificial está teniendo un impacto material en la industria del seguro de otras maneras. Para comenzar, el terreno de la litigación ya está experimentando una transformación.
Chivers afirmó que dentro de cinco años habrá mucha más adopción de la inteligencia artificial generativa a través de las funciones de cumplimiento y legales. “Y pienso que dentro de cinco años habrá un par de cosas que serán realmente prominentes.”
Afirmó que seguirán surgiendo muchos debates relacionados con la transparencia y cualquier señal de alerta descubierta dentro de una organización debido a la inteligencia artificial.
«¿Atribuirías conocimiento a la gerencia si tuvieras un agente de inteligencia artificial en segundo plano que detectara estas diferentes señales de alerta, incluso si nadie lo revisó?», preguntó. «Creo que la transparencia que aporta la IA generativa a una gran organización será un gran tema de litigio por descubrimiento».
Añadió que otra área que debe ser observada es el nivel al que las empresas están transfiriendo las responsabilidades de toma de decisiones a la inteligencia artificial.
Él expresó que “si estamos en un mundo donde las empresas transfieren la responsabilidad de la toma de decisiones, eso solo plantea una serie de situaciones relacionadas a la cobertura.”
Esta responsabilidad de la toma de decisiones tiene que ser considerada cuidadosamente con un ser humano en la escena debido a las deficiencias de la IA generativa.
“No es un modelo cuantitativo y además realmente carece de lo que podría describirse como juicio,” afirmó él. “Y, por tanto, cuando pienso en la manera que se entienden estos grandes modelos de lenguajes y lo que ofrecen a la mesa en términos de inteligencia artificial, pienso que la mejor forma de verlo es en términos de diferentes habilidades cognitivas… Los grandes modelos de lenguajes tienen ciertas habilidades cognitivas como el resumen y la clasificación de las cosas, la traducción, la transcripción, pero estas carecen completamente de otras habilidades cognitivas.”
“Permitir que la IA participe mucho en la toma de decisiones puede ser especialmente peligroso debido una de sus mejores habilidades hasta ahora: la linguística y la retórica. Eso significa que los modelos de la IA pueden destacarse en enmascarar el hecho de que carecen de juicio para operar como agente inteligente, explicó Chivers.
“Si permites que los grandes modelos de lenguaje generen cosas como los planes y planes de acción, eso literalmente los genera por sí mismo. Tiene un objetivo en mente y escribe alrededor de 10 pasos para sí misma sobre como cumplir esos objetivos. Y toma cada uno de esos pasos y genera ideas acerca de cómo ejecutarlas. Y luego continúa, y si le das acceso a otros sistemas, podrá funcionar, interactuar con ellos y generar impactos reales en tu organización».
«Por el momento, pienso que sería básicamente una locura permitir que la iteración actual de grandes agentes de modelos de lenguaje se descontrole dentro de los sistemas».
Juicio IA de los suscriptores
Más allá del uso de la IA generativa en la suscripción, ¿de qué manera las aseguradoras suscriben a las empresas que utilizan IA generativa como parte de su modelo de negocios?
“Pienso que los perfiles de riesgos de los asegurados que desarrollan o utilizan la IA son formados a través del uso de la IA,” expresó Davey. «Entonces, dependiendo de para qué se haya diseñado, eso influirá en si su principal factor de riesgo es el sesgo, la transparencia o la rendición de cuentas».
Ella expresó que cuando Relm Insurance está suscribiendo una cuenta, es importante preguntar lo que la tecnología de la IA está haciendo y donde se encuentra su exposición principal o riesgo cuando falla o algo no sale bien.
“Obviamente, si está gestionando o está siendo entrenada en mucha información personal identificable, tenemos un problema de responsabilidad y privacidad. Pero si observamos un modelo de la IA que pudiera estar produciendo diagnósticos, o tratando de producir pronósticos o tal vez ofreciendo recomendaciones, entonces tenemos un asunto de sesgo y discriminación,” expresó ella. Relm piensa que esos cubos dan forma al perfil de riesgo de los asegurados, guiando a los suscriptores en términos de cuáles preguntas de seguimiento preguntarán.
Ya que Relm busca ofrecer capacidad informada para los sectores emergentes, Davey expresó que acomodarse significa hacer preguntas e iniciar conversaciones con clientes que están presionando las fronteras de estas tecnologías emergentes.
«Se trata de tratar de dedicar tiempo a quienes están desarrollando esas tecnologías y también a la gestión de las tecnologías para comprender realmente sus capacidades técnicas, pero también la supervisión que las rodea», dijo. «Por tanto, requiere una inversión de parte del cliente compartir su información, compartir su tiempo con nosotros. Pero si podemos obtener la información correcta y sentirnos cómodos con la tecnología y su tema de gestión, entonces podemos comenzar a ofrecer capacidad para ese sector que históricamente ha estado desatendido en los mercados tradicionales».
Julie Reiser, socia en Cohen Milstein, piensa en los riesgos de la IA en términos de tergiversación o lavado de la IA, en el que una empresa exagera las capacidades de su tecnología de IA, así como la discriminación laboral.
“Pienso que premisa general que escucho en todos los ámbitos es que la IA es iterativa, que esperamos que las personas no solo se involucren una vez y creen un proceso, sino que también sea algo que debes verificar y observar cada paso y luego decir, ¿está esto creando un riesgo?”. “No es como todos los años, puedes simplemente registrarte y estará bien.”
Según Nick Reider, vicepresidente senior y líder adjunto de productos de D&O para la región oeste de Aon, para las empresas que solo están enfocadas en la IA existen aún más riesgos y eso requerirá de mayor supervisión de la junta directiva y de los sistemas para gestionar los riesgos. «Si no tienen esas cosas, entonces van a pasar un mal momento cuando se presente una buena demanda».
“No se trata de decir que algunas mega compañías que utilizan la IA para simplificar uno de sus miles de procesos no tienen responsabilidades de cualquier cosa relacionada a la IA. Obviamente, los directores no pueden esconderse cuando identifican una mala conducta, por ejemplo.” Sin embargo, las empresas necesitarán un alto nivel de supervisión en práctica.
«Pero pase lo que pase, debido al panorama regulatorio que existe actualmente, hay una supervisión adicional que debe existir en estas empresas», expresó. «Hay muchas cosas que entran en juego».
De hecho, solo en los Estados Unidos, han surgido desacuerdos sobre la manera de definir la inteligencia artificial y lo que podría alcanzar en los próximos cinco años, expresó Boris Feldman, socio en Freshfields, US.
“Lo que observo, por lo menos en los Estados Unidos, es que existen campos que son realmente preocupantes acerca de la super inteligencia y el fin de la humanidad,” expresó él. “Y luego hay otros campos que están más enfocados en el aquí y ahora de lo que podemos promulgar con respecto a la manera en que son utilizadas estas cosas para protegernos contra los riesgos conocidos actualmente.”
Davey expresó que, en los próximos cinco años surgirá un panorama más colorido de las reclamaciones en términos de litigios y regulaciones. “Podría imaginar que para los suscriptores y corredores actuales serán unos cinco años interesantes de conversaciones con clientes acerca de su historial de reclamaciones.”
Las empresas proactivas tendrán la carga de establecer estos estándares, añadió Reiser.
«Habrá un grupo proactivo de empresas y un grupo reactivo, y el grupo proactivo va a establecer el estándar de lo que el grupo reactivo debía haber hecho». «Ese será el punto de referencia. No me sorprendería».
Davey expresó que cree que esas tecnologías emergentes de la IA, aunque están evolucionando constantemente, son asegurables.
“Solo requiere trabajo y esfuerzo y también investigación, y eso requiere inversión y recursos,” añadió ella. “Por tanto, si nosotros como compañía aseguradora, pero también como sector de los seguros, queremos permanecer relevantes, entonces tenemos que trabajar con los clientes para entenderlos y ofrecer las soluciones.”
Fuente: https://www.insurancejournal.com/news/national/2025/03/21/816516.htm
