Menu
in

Los riesgos y las recompensas de la IA en la planificación financiera

La inteligencia artificial (IA) se ha extendido a casi todos los sectores, ya que tanto las empresas como los consumidores buscan aprovechar sus eficiencias de escala. Tareas como el análisis de datos, la transcripción, la atención al cliente y muchas más se pueden realizar utilizando IA para reducir el tiempo de obtención de resultados en órdenes de magnitud. La planificación financiera no es una excepción.

Según una encuesta de F2 Strategy, más de la mitad de las empresas de gestión patrimonial ya tienen un proyecto de IA en marcha. Están interesadas en el análisis predictivo de las condiciones del mercado y los cambios de valores a lo largo del tiempo, el reconocimiento óptico de caracteres para analizar documentos, la automatización del flujo de trabajo, los chatbots y más. El potencial es claro: la IA puede reducir el tiempo humano dedicado a estas tareas hasta en un 90%. Al mismo tiempo, más del 60% de las empresas dicen que necesitan más educación sobre IA. Por lo tanto, si bien el beneficio es innegable, la relación valor-riesgo es menos clara.

Esta dinámica es particularmente importante para la planificación financiera, donde lo que está en juego es muy importante: el dinero de los individuos y sus familias. Aunque los servicios de gestión de patrimonios a medida suelen estar dirigidos a personas con un mayor patrimonio neto, la IA permite ofrecer estos servicios a un grupo más amplio de personas. Los asesores pueden desarrollar perfiles de clientes y ofrecer planes personalizados en función de la edad, los activos, los riesgos, los objetivos y las necesidades en una fracción del tiempo, lo que significa que las empresas pueden ofrecerlos a más personas. Esto representa un nuevo mercado para los gestores de patrimonios, pero también un grupo de riesgo más grande.

Siempre debemos recordar que los actores de amenazas también están utilizando la IA. Ofrece a los atacantes exactamente los mismos beneficios: es un multiplicador de fuerza que les permite aumentar la escala y la eficacia de sus campañas. Incluso pueden envenenar el propio modelo de IA para revelar información confidencial o entregar resultados maliciosos. Además, los empleados que no están adecuadamente capacitados pueden exponer inadvertidamente información confidencial a través de la información que ingresan en las herramientas de IA, que posteriormente la incorporan a sus actividades de aprendizaje automático. Ya hemos visto casos de esto que invalida las reclamaciones de propiedad intelectual.

Por lo tanto, los controles de seguridad deben integrarse en todo el ciclo de vida de la IA, incluida la capacitación de los empleados. Antes de utilizar cualquier herramienta de IA, las organizaciones deben comprender la clasificación de privacidad de todos los datos que se pueden ingresar, la fuente de los datos utilizados para entrenar las herramientas de IA y los detalles de los protocolos de seguridad establecidos…

Leave a Reply

Exit mobile version