Por Gavin Souter | 22 de septiembre del 2025
CHICAGO — Los expertos afirman que las compañías deben establecer políticas de gobierno para la inteligencia artificial a medida que más empleados utilizan la IA generativa en su trabajo diario con o sin la aprobación de su empresa.
A medida que surgen las posibles responsabilidades de la IA, las brechas en la cobertura y las nuevas inclusiones podrían dejar a las empresas vulnerables a riesgos adicionales, expresaron ellos durante una sesión de la semana pasada del Foro de Riesgos Chicagoland, el cual es producido por el capítulo de Chicago de la Sociedad de Gestión de Riesgos y Seguros.
La gobernanza de la IA puede ayudar a las organizaciones a gestionar el llamado uso en sombra de la IA, donde los empleados utilizan la tecnología sin informar a sus supervisores u otro personal de la empresa, expresó Donna Haddad, asesora general asociada y consultora de Americas, y líder mundial de ética de la IA en IBM Chicago.
“Tus empleados están utilizándola, simplemente puede que no sepas como lo están haciendo,” expresó.
Las políticas de gobierno pueden abordar asuntos como asegurar que existe “un humano en el proceso” para las decisiones que afectan la contratación o el crédito, por ejemplo, expresó la Sra. Haddad.
Las políticas también pueden identificar asuntos como la propiedad de la información, la transparencia sobre la manera en que es utilizada la IA y evitar que los empleados utilicen los resultados no deseados generados por la IA, afirmó.
Con una estructura de gobierno en marcha, las empresas deben evaluar los posibles riesgos, incluyendo la confidencialidad de los clientes, expresó la Sra. Haddad.
“Tus empleados necesitan saber que, si ponen algo en el internet eso puede ser detectado por ChatGPT o cualquier otra tecnología que se esté utilizando,” afirmó.
Además, existe un riesgo en algunas circunstancias de perjudicar el privilegio abogado-cliente expresó la Sra. Haddad. “Si lo pones en el internet, renuncias a ese privilegio.”
Otros riesgos incluyen las violaciones de la propiedad intelectual, donde las herramientas de la IA recopilan materiales protegidos por derechos de autor, y alucinaciones de la IA, donde la tecnología crea contenido, como casos ficticios para documentos legales, afirmó.
Las empresas también enfrentan riesgos por el uso de la IA de parte de sus proveedores de IA y por el aumento de la cantidad de empresas de IA y las medidas de seguridad que implementan, expresó la Sra. Haddad.
«Realmente tienes que obtener un inventario, y luego necesitas un proceso de revisión de extremo a extremo», afirmó.
Muchas pólizas de seguro comercial existentes ofrecen cobertura de las exposiciones de la IA, expresó Kevin Kalinich, líder de colaboración mundial de activos intangibles mundiales en Aon Chicago.
«En aproximadamente el 85% de los casos, hay argumentos que pueden ser aplicados por las pólizas de seguro en las diferentes categorías de IA», expresó.
Por ejemplo, si se alega que la IA motivó a alguien a dañarse a sí mismo, las pólizas de responsabilidad civil general cubren daño corporal o muerte, expresó el Sr. Kalinich.
Sin embargo, al igual que como sucede con la tendencia de la cobertura “cibernética silenciosa”, las aseguradoras se están moviendo hacia el cambio de la redacción de las pólizas para que las exposiciones de la IA sean excluidas a menos que se encuentren cubiertas afirmativamente, afirmó.
Varias aseguradoras han emitido pólizas específicas de la IA, y los corredores están diseñando endosos de pólizas para cubrir las exposiciones de la IA, expresó el Sr. Kalinich.
Fuente: Risk management, insurance evolve to mitigate AI exposures – Business Insurance
